AI资讯新闻榜单内容搜索- DeepSeek

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  DeepSeek
冗长响应缩减80%,DeepSeek GRPO获得颠覆性改进,微软GFPO问世

冗长响应缩减80%,DeepSeek GRPO获得颠覆性改进,微软GFPO问世

冗长响应缩减80%,DeepSeek GRPO获得颠覆性改进,微软GFPO问世

用过 DeepSeek-R1 等推理模型的人,大概都遇到过这种情况:一个稍微棘手的问题,模型像陷入沉思一样长篇大论地推下去,耗时耗算力,结果却未必靠谱。现在,我们或许有了解决方案。

来自主题: AI技术研报
5156 点击    2025-08-15 11:26
爆出!DeepSeek R2预计8月发布!R2为何一直不发,内部紧急发声

爆出!DeepSeek R2预计8月发布!R2为何一直不发,内部紧急发声

爆出!DeepSeek R2预计8月发布!R2为何一直不发,内部紧急发声

GPT-5刚发布没多久,DeepSeek-R2就快来了,好热闹的8月份! DeepSeek预计将于8月发布其新一代旗舰模型DeepSeek-R2。

来自主题: AI资讯
6836 点击    2025-08-14 12:32
Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

稀疏激活的混合专家模型(MoE)通过动态路由和稀疏激活机制,极大提升了大语言模型(LLM)的学习能力,展现出显著的潜力。基于这一架构,涌现出了如 DeepSeek、Qwen 等先进的 MoE LLM。

来自主题: AI技术研报
5547 点击    2025-08-12 11:07
起猛了,诺基亚用上 DeepSeek 了

起猛了,诺基亚用上 DeepSeek 了

起猛了,诺基亚用上 DeepSeek 了

这就是我与 HMD 3210 的奇遇记:一台外表是 30 年前诺基亚、内心却住着一个完整大模型的「时光机器」。

来自主题: AI资讯
6652 点击    2025-08-11 11:42
硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

自首次提出 GPT 架构以来,转眼已经过去了七年。 如果从 2019 年的 GPT-2 出发,回顾至 2024–2025 年的 DeepSeek-V3 和 LLaMA 4,不难发现一个有趣的现象:尽管模型能力不断提升,但其整体架构在这七年中保持了高度一致。

来自主题: AI技术研报
6235 点击    2025-08-08 11:52
独家丨盛大挖角代季峰,筹建新 AGI 公司对标 DeepSeek

独家丨盛大挖角代季峰,筹建新 AGI 公司对标 DeepSeek

独家丨盛大挖角代季峰,筹建新 AGI 公司对标 DeepSeek

AI 科技评论独家获悉,近日盛大网络挖角清华大学电子工程系副教授代季锋,正在筹备一家新的 AGI 公司,号称“对标 DeepSeek”,已有多位技术人才被猎头接触、介绍该团队的工作机会。

来自主题: AI资讯
6256 点击    2025-08-04 20:57
GLM-4.5 验证:智谱已完成一轮“洗牌”

GLM-4.5 验证:智谱已完成一轮“洗牌”

GLM-4.5 验证:智谱已完成一轮“洗牌”

2025 年已过半,今年的大模型热度明显下降,关于基础模型的关注大多收敛到了 DeepSeek 与阿里通义上。相比之下,曾一度被标榜为大模型“国产替代”、信创之光的智谱 AI 所受到的关注度明显下降,过往高调的战略打法也渐显低迷。

来自主题: AI资讯
5538 点击    2025-08-04 20:18
当提示词优化器学会进化,竟能胜过强化学习

当提示词优化器学会进化,竟能胜过强化学习

当提示词优化器学会进化,竟能胜过强化学习

仅靠提示词优化就能超越 DeepSeek 开发的 GRPO 强化学习算法? 是的,你没有看错。近日上线 arXiv 的一篇论文正是凭此吸引了无数眼球。

来自主题: AI技术研报
5904 点击    2025-08-01 11:42
SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

近年来,OpenAI o1 和 DeepSeek-R1 等模型的成功证明了强化学习能够显著提升语言模型的推理能力。通过基于结果的奖励机制,强化学习使模型能够发展出可泛化的推理策略,在复杂问题上取得了监督微调难以企及的进展。

来自主题: AI技术研报
4336 点击    2025-07-31 10:10